بالاخره سیاست با همه بیپدر و مادری، نامردی، کثیف بودن و با وجود همه حرفهایی که پشت سرش میزنند، لابد خوبیهایی هم دارد. حداقلش این است که گاهی ممکن است برای مصالح جامعه بشری یکی دو قدم بردارد! یک نمونه آن، ماجرای «جعل عمیق» یا همان دیپفیک که ظاهراً آشش جوری شور شده که اهالی دنیای صنعت و فناوری، علم اخلاق، جامعهشناسان و حتی سیاستبازان و سیاستورزان هم صدایشان بابت این دستهگل هوش مصنوعی و قرن۲۱ درآمده است.
زلف این، دُم آن
اگر فکر میکنید داریم بیدلیل زلف ماجرایی مثل «جعل عمیق» و هوش مصنوعی را به دُمِ سیاست گره میزنیم، سخت در اشتباهید. منتها حرف زدن از دلیل این کار بماند برای اواخر مطلب! اول باید ببینیم اصل ماجرا چیست و چه اتفاقی افتاده که ماست جعل عمیق را توی قیمه سیاست ریختهایم و زلف این یکی و دُم و یال آن یکی دیگر را کشیده و آوردهایم وسط این صفحه؟
دستکاری کردن عکس و فیلم و ساختن تصاویری خندهدار یا سرگرمکننده نخستین بار در قرن ۱۹ باب شد. هدفش هم سر کار گذاشتن مردم یا حقهبازی و جا زدن دروغ به جای واقعیت نبود. توسعه این نوع دستکاری هم همزمان و همراه با گسترش و پیشرفت عکاسی و فیلمبرداری ادامه پیدا کرد تا کار به خلق جلوههای ویژه و ترفندهای سینمایی رسید. اما سوءاستفاده از این فناوری جذاب همزمان توسعه پیدا کرد و از چند دهه پیش به عرصههای خیلی اخلاقی هم کشیده شد. البته این ذات علم و فناوری و خیلی از داشتههای انسانی است که وقتی فراگیر میشوند مثل دریا همه چیز با خودشان دارند.
اگر فکر میکنید داریم بیدلیل زلف ماجرایی مثل «جعل عمیق» و هوش مصنوعی را به دُمِ سیاست گره میزنیم، سخت در اشتباهید. منتها حرف زدن از دلیل این کار بماند برای اواخر مطلب! اول باید ببینیم اصل ماجرا چیست و چه اتفاقی افتاده که ماست جعل عمیق را توی قیمه سیاست ریختهایم و زلف این یکی و دُم و یال آن یکی دیگر را کشیده و آوردهایم وسط این صفحه؟
دستکاری کردن عکس و فیلم و ساختن تصاویری خندهدار یا سرگرمکننده نخستین بار در قرن ۱۹ باب شد. هدفش هم سر کار گذاشتن مردم یا حقهبازی و جا زدن دروغ به جای واقعیت نبود. توسعه این نوع دستکاری هم همزمان و همراه با گسترش و پیشرفت عکاسی و فیلمبرداری ادامه پیدا کرد تا کار به خلق جلوههای ویژه و ترفندهای سینمایی رسید. اما سوءاستفاده از این فناوری جذاب همزمان توسعه پیدا کرد و از چند دهه پیش به عرصههای خیلی اخلاقی هم کشیده شد. البته این ذات علم و فناوری و خیلی از داشتههای انسانی است که وقتی فراگیر میشوند مثل دریا همه چیز با خودشان دارند.
از ماهی و مروارید و این جور چیزها بگیرید تا آلودگی و خطر و... . مثال عینیتر، جناب «فتوشاپ» است که برای اهل فن و کاربرهای اهل و متخصصش، بهترین ابزار ویرایش تصویر به حساب میآمد و میآید و برای خیلی از نااهلان تا همین یکی دو دهه پیش ابزار هزارجور خلافکاری بود. من و شما هم که هنوز توی شوخیها و جوک ساختن و سر به سر گذاشتن با این و آن، گاه و بیگاه دستکم از اصطلاح فتوشاپ استفاده میکنیم مگر اینکه خیلی به روز و دیجیتال باشیم و یادمان باشد که چند سالی است به دلیل پیشرفت و توسعه هوش مصنوعی، دیگر کمتر کسی چه به شوخی و چه جدی از فتوشاپ استفاده میکند.
این روزها بازار «جعل عمیق» گرم و بلکه داغ است و میتواند سر، صورت، هیبت و هیئت شما را روی فیلم و تصویر یک نفر دیگر جوری مونتاژ کند که خودتان هم نتوانید جعلی بودن آن را متوجه شوید. بدیهی است در این صورت شما و مردم میتوانید خودتان را در جایی که هرگز نبودهاید، درحال زدن حرفهایی که هرگز نزدهاید، خوردن چیزهایی که اهل خوردنش نیستید و رویمان به دیوار انجام کارهایی که عمراً اهل انجامش نیستید، مشاهده کنید!
مُشت آخر را چه کسی میزند؟
هشدارها درباره جنبههای ضداخلاقی سوءاستفاده از «جعل عمیق» از همان روزهای ابتدای رواج این فناوری شروع شد. با وجود این چون هنوز اغلب متخصصان داغ بوده و شگفتیهای هوش مصنوعی و تواناییهایش همه را ذوقزده کرده بود کسی خیلی به آنها توجه نکرد. اما به مرور افزایش تعداد ویدئوهایی که آدمها و بهخصوص بازیگران سرشناس را در حالتهایی که نباید باشند، نشان میداد، موجب شد اعتراضها و هشدارها بالا بگیرد.
مُشت آخر را چه کسی میزند؟
هشدارها درباره جنبههای ضداخلاقی سوءاستفاده از «جعل عمیق» از همان روزهای ابتدای رواج این فناوری شروع شد. با وجود این چون هنوز اغلب متخصصان داغ بوده و شگفتیهای هوش مصنوعی و تواناییهایش همه را ذوقزده کرده بود کسی خیلی به آنها توجه نکرد. اما به مرور افزایش تعداد ویدئوهایی که آدمها و بهخصوص بازیگران سرشناس را در حالتهایی که نباید باشند، نشان میداد، موجب شد اعتراضها و هشدارها بالا بگیرد.
لابد تلاش متخصصان و دانشمندان برای درافتادن با جنبههای منفی جعل عمیق از همین روزها آغاز شد. شما اگر خبرهای این حوزه در سه یا چهار سال گذشته را مرور کنید به عناوینی از این دست برمیخورید: «حقیقتهای ترسناک درباره تکامل فناوری جعل عمیق... در جنگ میان حقیقت و دروغ ضربه آخر را چه کسی میزند؟... چگونه میتوان جامعه و علم را از شر جعل عمیق نجات داد؟...» عمر هشدارها و تیترهایی از این قبیل که نشانه دلواپسیهای اهل فن و اندیشمندان مختلف بود از سه یا چهار سال نگذشته بود که اخبار مربوط به اقدامهای عملی برای رفتن به جنگ «جعل عمیق» سروکله شان پیدا شد.
سال گذشته همین موقعها بود که خبر رسید چینیها عزمشان را برای مقابله با این پدیده جزم کردهاند. گویا آنها مجموعه مقررات سفت و سختی را برای کنترل محتواهای اینترنتی تصویری جعلی تدوین و منتشر کرده بودند. تشکیلات قدرتمندی که قرار بود در چین این مقررات را اعمال کند، برای انتشار محتوای ساخته شده با این فناوری شرط و شروط خاصی گذاشته بود که طبق آن منتشرکننده نباید از این محتواها به عنوان خبر جعلی استفاده کند، استفاده از تصویر اشخاص و کاربران باید با رضایت آنها صورت بگیرد، محتوا باید همراه با اطلاعرسانی در زمینه جعلی بودن منتشر شوند و... .
این قوانین اگرچه خوب و لازم بودند، اما کافی به نظر نمیرسیدند. چه اینکه وقتی فیلمی با این فناوری ساخته شده و نه با هدف گول زدن دیگران و مثلاً به عنوان یک تبلیغ تجاری، با رعایت همه قواعد و قوانین منتشر میشد، هیچ تضمینی وجود نداشت که آن طرف دنیا افرادی این فیلم را کپی نکرده و در فرصت مناسب آن را با هدف سوءاستفاده و آسیب رساندن به افراد منتشر نکنند.
واگعیه یا کیکه؟
دقیقاً، زلف «جعل عمیق» از همین جای ماجرا به دُم سیاست گره خورد! از دیدگاه سیاست، فناوری عمیق و گول زننده جدید تا وقتی فقط آبروی سلبریتیها یا برخی ستارگان سینما را میبرد، با حیثیت فلان ورزشکار شوخی میکرد یا جای مردم کوچه و بازار را با افراد سرشناس عوض میکرد قابل تحمل و زیرسبیلی در کردن بود، اما از وقتی سیاستبازان متوجه شدند در بزنگاههای خاص سیاسی، انتخابات و... جعل عمیق تا چه حد میتواند منافع آنها را به خطر بیندازد و آبروریزی درست کند، این فناوری دیگر واقعاً غیرقابل تحمل و خطرناک قلمداد شد! شاید این همزمانی که میخواهیم بگوییم یک اتفاق باشد اما به هر حال یک حقیقت هم هست.
واگعیه یا کیکه؟
دقیقاً، زلف «جعل عمیق» از همین جای ماجرا به دُم سیاست گره خورد! از دیدگاه سیاست، فناوری عمیق و گول زننده جدید تا وقتی فقط آبروی سلبریتیها یا برخی ستارگان سینما را میبرد، با حیثیت فلان ورزشکار شوخی میکرد یا جای مردم کوچه و بازار را با افراد سرشناس عوض میکرد قابل تحمل و زیرسبیلی در کردن بود، اما از وقتی سیاستبازان متوجه شدند در بزنگاههای خاص سیاسی، انتخابات و... جعل عمیق تا چه حد میتواند منافع آنها را به خطر بیندازد و آبروریزی درست کند، این فناوری دیگر واقعاً غیرقابل تحمل و خطرناک قلمداد شد! شاید این همزمانی که میخواهیم بگوییم یک اتفاق باشد اما به هر حال یک حقیقت هم هست.
همه اخبار درباره تلاش برای در افتادن با جعل عمیق از همین زمانی که گفتیم شروع میشود. طی همین یک سال اخیر در هند، نخستوزیر خبر از ضرورت مبارزه با دیپ فیک را میدهد. شرکتهای بزرگ اعلام میکنند نگران تأثیرات ناجور جعل عمیق بر انتخابات در کشورهای مختلف بهخصوص آمریکا هستند. مشاور هوش مصنوعی در سازمان ملل بهشدت درباره جعل عمیق هشدار داد چون معتقد بود در حال حاضر سیاستگذاران در زمینه آموزش مردم در مورد خطرات فراوان جعل عمیق و نحوه تشخیص آنها به اندازه کافی تلاش نمیکنند.
تازهترین خبر را هم دیروز خبرگزاریهای خودمان منتشر کردند که شرکتهای کانن، نیکون و سونی دارند کاری میکنند که تمامی تصاویر تولیدشده توسط دوربینهایشان با یک امضای دیجیتال همراه باشند. یعنی این امضای دیجیتال به کمک یک نرمافزار به همگان امکان میدهد واقعی یا جعلی بودن فیلم و عکس را بهسرعت متوجه شوند. گوگل نیز به این مبارزه با جعل عمیق پیوسته و فعلاً همه امیدوارند بهزودی شاهد مرگ «جعل عمیق» باشند... اگر فردا به کمک هوش مصنوعی به شکلی دیگر زنده نشود!
خبرنگار: مجید تربتزاده
تازهترین خبر را هم دیروز خبرگزاریهای خودمان منتشر کردند که شرکتهای کانن، نیکون و سونی دارند کاری میکنند که تمامی تصاویر تولیدشده توسط دوربینهایشان با یک امضای دیجیتال همراه باشند. یعنی این امضای دیجیتال به کمک یک نرمافزار به همگان امکان میدهد واقعی یا جعلی بودن فیلم و عکس را بهسرعت متوجه شوند. گوگل نیز به این مبارزه با جعل عمیق پیوسته و فعلاً همه امیدوارند بهزودی شاهد مرگ «جعل عمیق» باشند... اگر فردا به کمک هوش مصنوعی به شکلی دیگر زنده نشود!
خبرنگار: مجید تربتزاده
نظر شما